与常规知识蒸馏(KD)不同,自我KD允许网络在没有额外网络的任何指导的情况下向自身学习知识。本文提议从图像混合物(Mixskd)执行自我KD,将这两种技术集成到统一的框架中。 Mixskd相互蒸馏以图形和概率分布在随机的原始图像和它们的混合图像之间以有意义的方式。因此,它通过对混合图像进行监督信号进行建模来指导网络学习跨图像知识。此外,我们通过汇总多阶段功能图来构建一个自学老师网络,以提供软标签以监督骨干分类器,从而进一步提高自我增强的功效。图像分类和转移学习到对象检测和语义分割的实验表明,混合物KD优于其他最先进的自我KD和数据增强方法。该代码可在https://github.com/winycg/self-kd-lib上找到。
translated by 谷歌翻译
多元时间序列(MTS)预测在广泛的应用中起着至关重要的作用。最近,由于其最先进的性能,空间 - 周期性图神经网络(STGNN)已成为越来越流行的MTS预测方法。但是,随着绩效的有限改善,最近的工作变得越来越复杂。这种现象激发了我们探索MTS预测和设计模型的关键因素,该模型与STGNN一样强大,但更简洁,效率更高。在本文中,我们将样品在空间和时间维度中的不可区分性确定为关键瓶颈,并通过连接空间和时间身份信息(STID)提出了一个简单而有效的MTS预测基线,该信息可同时实现最佳性能和效率基于简单的多层感知器(MLP)。这些结果表明,只要它们解决样品的不可区分性,而无需限于STGNN,我们就可以设计高效有效的模型。
translated by 谷歌翻译
多元时间序列(MTS)预测在广泛的应用中起着至关重要的作用。最近,时空图神经网络(STGNN)已成为越来越流行的MTS预测方法。 STGNN通过图神经网络和顺序模型共同对MTS的空间和时间模式进行建模,从而显着提高了预测准确性。但是受模型复杂性的限制,大多数STGNN仅考虑短期历史MTS数据,例如过去一个小时的数据。但是,需要根据长期的历史MTS数据来分析时间序列的模式及其之间的依赖关系(即时间和空间模式)。为了解决这个问题,我们提出了一个新颖的框架,其中STGNN通过可扩展的时间序列预训练模型(步骤)增强。具体而言,我们设计了一个预训练模型,以从非常长期的历史时间序列(例如,过去两周)中有效地学习时间模式并生成细分级表示。这些表示为短期时间序列输入到STGNN提供了上下文信息,并促进了时间序列之间的建模依赖关系。三个公共现实世界数据集的实验表明,我们的框架能够显着增强下游STGNN,并且我们的训练前模型可恰当地捕获时间模式。
translated by 谷歌翻译
我们都取决于流动性,车辆运输会影响我们大多数人的日常生活。因此,预测道路网络中流量状态的能力是一项重要的功能和具有挑战性的任务。流量数据通常是从部署在道路网络中的传感器获得的。关于时空图神经网络的最新建议通过将流量数据建模为扩散过程,在交通数据中建模复杂的时空相关性方面取得了巨大进展。但是,直观地,流量数据包含两种不同类型的隐藏时间序列信号,即扩散信号和固有信号。不幸的是,几乎所有以前的作品都将交通信号完全视为扩散的结果,同时忽略了固有的信号,这会对模型性能产生负面影响。为了提高建模性能,我们提出了一种新型的脱钩时空框架(DSTF),该框架以数据驱动的方式将扩散和固有的交通信息分开,其中包含独特的估计门和残差分解机制。分离的信号随后可以通过扩散和固有模块分别处理。此外,我们提出了DSTF的实例化,分离的动态时空图神经网络(D2STGNN),可捕获时空相关性,还具有动态图学习模块,该模块针对学习流量网络动态特征的学习。使用四个现实世界流量数据集进行的广泛实验表明,该框架能够推进最先进的框架。
translated by 谷歌翻译
沟通压缩是现代分布式学习系统的至关重要技术,可以减轻其在较慢的网络上的交流瓶颈。尽管最近对数据并行式训练的梯度压缩进行了深入的研究,但压缩了通过管道并行性训练的模型的激活仍然是一个空旷的问题。在本文中,我们提出了AC-SGD,这是一种新型的激活压缩算法,用于在慢速网络上进行通信有效的管道并行性训练。 AC-SGD与以前的激活压缩方面的努力不同,而不是直接压缩激活值,而是压缩激活的变化。这使我们能够首次向我们的知识表明,仍然可以实现$ o(1/\ sqrt {t})$收敛速率,即激活压缩的非convex目标,而无需对梯度做出假设无偏见对于具有非线性激活功能的深度学习模型不符合。然后,我们证明AC-SGD可以有效地优化和实施,而无需额外的端到端运行时开销。我们将AC-SGD评估为微调语言具有高达15亿个参数的模型,将激活压缩至2-4位。AC-SGD在较慢的网络中可提供高达4.3倍的端到端速度,而无需牺牲模型质量。此外,我们还表明,AC-SGD可以与最先进的梯度压缩算法结合使用,以启用“端到端通信压缩:机器之间的所有通信,包括模型梯度,远期激活和后退梯度压缩为较低的精度。这提供了高达4.9倍的端到端加速,而无需牺牲模型质量。
translated by 谷歌翻译
训练基金会模型(例如GPT-3和Palm)可能非常昂贵,通常涉及数以万计的GPU连续运行数月。这些模型通常经过专门的群集培训,这些群集具有快速,均匀的互连,并使用精心设计的软件系统来支持数据并行性和模型/管道并行性。这样的专用集群可能是昂贵且难以获得的。我们可以相反,可以利用更大量的分散,异质和较低的互连计算?先前的工作研究了可以纯粹以数据并行方式训练的相对较小模型的异质,分散的设置重点。模型平行基础模型培训(例如威震天)的最先进的方案仅考虑均匀的数据中心设置。在本文中,我们介绍了第一个研究大型基础模型的研究,该模型在异质网络上的去中心化制度中进行了模型并行性。我们的主要技术贡献是一种调度算法,该算法将不同的计算“任务”在培训基础模型中分配给通过缓慢的异质网络连接的一组分散的GPU设备。我们提供了正式的成本模型,并进一步提出了一种有效的进化算法,以找到最佳分配策略。我们进行了广泛的实验,这些实验代表了使用现实世界网络测量模拟的地理分布设备进行学习的不同方案。在最极端的情况下,在跨越3大洲的8个不同的城市中,我们的方法比以前的最新培训系统(Megatron)快4.8倍。
translated by 谷歌翻译
至于场景图的生成(SGG),由于众包标签,数据集中的粗谓词混合了,并且长尾问题也很明显。鉴于这种棘手的情况,许多现有的SGG方法在一个阶段的混合颗粒性谓词的监督下平均处理谓词,并在一个阶段学习模型,从而导致相对粗糙的预测。为了减轻次优的混合粒度注释和长尾效应问题的负面影响,本文提出了一种新型的层次记忆学习(HML)框架,以从简单到复杂的模型学习该模型,这与人类类似于人类的模型。分层记忆学习过程。在粗糙和细谓词的自主分区之后,该模型首先在粗谓词上训练,然后学习细谓词。为了实现这种层次学习模式,本文首次使用新概念重建(CR)和模型重建(MR)约束来制定HML框架。值得注意的是,HML框架可以作为改善各种SGG模型的一种一般优化策略,并且可以在SGG基准(即视觉基因组)上实现显着改进。
translated by 谷歌翻译
如今,知识图(KGS)一直在AI相关的应用中发挥关键作用。尽管尺寸大,但现有的公斤远非完全和全面。为了不断丰富KG,通常使用自动知识结构和更新机制,这不可避免地带来充足的噪音。然而,大多数现有知识图形嵌入(KGE)方法假设KGS中的所有三重事实都是正确的,并且在不考虑噪声和知识冲突的情况下将实体和关系投入到低维空间。这将导致kgs的低质量和不可靠的表示。为此,本文提出了一般的多任务加固学习框架,这可以大大缓解嘈杂的数据问题。在我们的框架中,我们利用强化学习来选择高质量的知识三分石,同时过滤出嘈杂的。此外,为了充分利用语义类似的关系之间的相关性,在具有多任务学习的集体方式中训练了类似关系的三重选择过程。此外,我们扩展了流行的KGE Models Transe,Distmult,与所提出的框架耦合和旋转。最后,实验验证表明,我们的方法能够增强现有的KGE模型,可以在嘈杂的情景中提供更强大的KGS表示。
translated by 谷歌翻译
基于深度学习的模型占主导地位的生产推荐系统的当前景观。此外,近年来目睹了模型规模的指数增长 - 从谷歌的2016年模型,最新的Facebook的型号有10亿个参数,具有12万亿参数。型号容量的每次跳跃都有显着的质量增强,这使我们相信100万亿参数的时代即将来临。然而,即使在工业规模数据中心内,这些模型的培训也在挑战。这种困难是从训练计算的惊人的异质性继承 - 模型的嵌入层可以包括总模型尺寸的99.99%,这是极其内存密集的;虽然其余的神经网络越来越多地计算密集型。为支持培训此类巨大模式,迫切需要有效的分布式培训系统。在本文中,我们通过仔细共同设计优化算法和分布式系统架构来解决这一挑战。具体而言,为了确保培训效率和训练精度,我们设计一种新型混合训练算法,其中嵌入层和密集的神经网络由不同的同步机制处理;然后,我们构建一个名为Persia的系统(短暂的并行推荐培训系统,其中包含混合加速),以支持这种混合培训算法。理论上的示范和实证研究均达到100万亿参数,以证明了波斯的系统设计和实施。我们将Pensia公开使用(在https://github.com/persiamml/persia),以便任何人都能够以100万亿参数的规模轻松培训推荐模型。
translated by 谷歌翻译
虽然最先进的传统代表学习(TRL)模型在知识图形完成上显示竞争性能,但实体的嵌入物之间没有参数共享,并且实体之间的连接较弱。因此,提出了基于邻居聚合的表示学习(NARL)模型,其将实体的邻居中的信息编码到其嵌入中。然而,现有的NARL模型只能利用一个跳邻居,忽略多跳邻居中的信息,或者通过分层邻居聚合利用多跳邻居,销毁多跳邻居的完整性。在本文中,我们提出了一个名为RMNA的NARL模型,它通过规则挖掘算法获得和过滤HOWN规则,并使用所选的喇叭规则将有价值的多跳邻居转换为一个跳邻居,因此,有价值的信息中的信息通过聚合这些单跳邻居可以完全利用跳跃邻居。在实验中,我们将RMNA与最先进的TRL模型和NARL型号进行比较。结果表明,RMNA具有竞争性表现。
translated by 谷歌翻译